摘要。改进和采用生成机器学习模式正在迅速加速,如LLMS(大语言模型)的普及,文本的普及,并且用于图像生成的不同使用模型。随着广泛的模型变得广泛,数据可以通过公共网络通过公共网络集成到共享内容中。这开了一个问题,即当模型生成的数据在随后的培训活动中被馈回模型时,哪些问题。这是一个关于培训过程的稳定性的问题,我们称为“知识”的公共访问内容的分布是否保持稳定或崩溃。文献中报道的小规模经验实验表明,这种闭环训练过程容易退化。模型可以开始列出gibberish数据,或者仅从所需数据分布的一小部分(一种称为模式崩溃的现象)中进行样品。到目前为止,对这一过程的理论理解仅有限,部分原因是这些生成模型的深层网络的复杂性。本文的目的是通过研究生成模型的学习动态,这些动态除了其原始的培训数据集外,还可以回馈自己生产的内容,以提供有关此过程(我们称为“生成闭环学习”)的见解。许多这些模型的采样可以通过“温度”参数来控制。使用动态系统工具,我们表明,除非在每次迭代中引入足够数量的外部数据,否则任何非平凡的温度都会导致模型渐近地退化。实际上,生成分布崩溃到一小组输出,或在大量输出上变成均匀。
主要关键词